摘要我们介绍了一种称为探测链链(Procot)的新颖写作方法,该方法有可能阻止学生使用大语言模型(LLM)(例如ChatGpt)作弊,同时增强他们的积极学习。llms已经解散了教育和许多其他领域。担心学生作弊,许多人诉诸于禁止使用他们的使用。这些LLM也以幻觉而闻名。我们在两个不同的课程中与65名学生一起在Procot进行研究。要求每门课程中的学生提示他们选择的LLM,其中一个问题是从四个组中提出的一个问题,并需要使用PEER-REVIEWEDERED参考文献确认或驳斥LLM输出中的语句。结果显示了两件事:(1)Procot在我们将仅限LLM的输出与Procot输出进行比较时,通过与LLMS的互动来刺激学生的批判性/批判性思维,并通过与Procot输出进行比较,并且(2)当我们将Procot Procot Outper与LLM Prococot的cathgs进行比较时,Procot可以防止procot的作弊,尤其是在现有的LLMS(尤其是)中限制。我们还发现,大多数学生都喜欢用比LLM少的单词给出答案,而LLM通常是冗长的。第一门课程,chatgpt(v3.5)和phind(v8)中的学生的平均单词计数分别为208、391和383。
![arxiv:2312.09801v2 [CS.CL] 2024年5月1日PDF文件第1页](/bimg/8/86342f4a7be036931552fcfd409dc02cd774ea01.webp)
![arxiv:2312.09801v2 [CS.CL] 2024年5月1日PDF文件第2页](/bimg/8/820d0db12ce24a6531f9580d7936e5fa76290073.webp)
![arxiv:2312.09801v2 [CS.CL] 2024年5月1日PDF文件第3页](/bimg/e/e7a9c9f59f021bab0a1c29fa496c5cc191b82311.webp)
![arxiv:2312.09801v2 [CS.CL] 2024年5月1日PDF文件第4页](/bimg/1/17c813b47252c83ea2f850cbd61424401e3f21a9.webp)
![arxiv:2312.09801v2 [CS.CL] 2024年5月1日PDF文件第5页](/bimg/4/443a12df3c14dffe0c275ea7f7c67543a3726542.webp)
